1
Além do Limite de Conhecimento: Por que os LLMs Precisam de Dados Externos
AI011Lesson 6
00:00

Além do Limite de Conhecimento

Modelos de Linguagem de Grande Porte são poderosos, mas sofrem com uma limitação fundamental: o Limite de Conhecimento. Para construir sistemas de IA confiáveis, precisamos preencher a lacuna entre os dados de treinamento estáticos e as informações dinâmicas do mundo real.

1. O Problema do Limite de Conhecimento (O Que)

Os LLMs são treinados em conjuntos de dados massivos, porém estáticos, com uma data final fixa (por exemplo, o limite de setembro de 2021 do GPT-4). Consequentemente, os modelos não conseguem responder perguntas sobre eventos recentes, atualizações de software ou dados privados criados após seu período de treinamento.

2. Alucinações versus Realidade (Por Que)

Quando questionados sobre dados desconhecidos ou posteriores ao limite, os modelos frequentemente alucinam—criando fatos plausíveis, mas totalmente falsos, para satisfazer a solicitação. A solução é Fixação: fornecer um contexto verificável em tempo real a partir de uma base de conhecimento externa antes que o modelo gere uma resposta.

3. RAG versus Fine-Tuning (Como)

  • Fine-Tuning: Atualizar os pesos internos do modelo é computacionalmente custoso, lento e resulta em conhecimento estático que rapidamente se torna desatualizado novamente.
  • RAG (Geração Ampliada por Recuperação): Altamente econômico. Ele recupera informações relevantes em tempo real e as injeta na solicitação, garantindo que os dados estejam atualizados e permitindo atualizações fáceis na base de conhecimento sem re-treinamento.
A Falta de Acesso a Dados Privados
Os LLMs não têm acesso a manuais internos da empresa, relatórios financeiros ou documentos confidenciais, a menos que sejam integrados explicitamente por meio de um pipeline de recuperação.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."